人工智能中价值一致性 (VA) 系统开发的一个重要步骤是了解 VA 如何反映有效的道德原则。我们建议 VA 系统的设计者采用一种混合方法来融入道德,其中道德推理和经验观察都发挥作用。我们认为,这可以避免犯“自然主义谬误”,即试图从“是”中推导出“应该”,并且在没有犯谬误时,它提供了一种更充分的道德推理形式。使用量化模型逻辑,我们精确地制定了源自义务论伦理的原则,并展示了它们如何为人工智能规则库中的任何给定行动计划暗示特定的“测试命题”。只有当测试命题在经验上是真实的时,行动计划才是合乎道德的,这是基于经验 VA 做出的判断。这使得经验 VA 能够与独立合理的道德原则无缝集成。